[자막뉴스] "총격·혐오 못 걸러"…잡음 끊이지 않는 페이스북<br /><br />전 직원의 내부 고발로 시작된 페이스북의 유해성 논란.<br /><br /><br />"페이스북의 자체 연구에 따르면 그들은 위험한 콘텐츠를 식별할 수 없습니다.<br />그 결과 그들이 승인한 위험한 알고리즘은 극단적인 감정·분열을 심화시켰습니다."<br /><br />미국 언론에서는 유해 콘텐츠가 제대로 통제되지 않고 있음에도 페이스북이 이를 방치했다는 그녀의 주장을 뒷받침하는 보도가 이어지고 있습니다.<br /><br />월스트리트저널은 페이스북이 증오 발언과 과도한 폭력 영상 등을 신속 삭제하기 위해 도입한 인공지능 시스템이 제 기능을 하지 못하고 있다고 내부 보고서를 인용해 보도했습니다.<br /><br />보고서에 따르면 페이스북 자동화 시스템이 삭제한 혐오 발언 건수는 전체의 최대 5%에 그쳤고 폭력과 선동 등 모든 규정 위반 콘텐츠로 대상을 확대하면 0.6%밖에 걸러내지 못했습니다.<br /><br />1인칭 총격 영상도 제대로 잡아내지 못했습니다.<br /><br />2019년 3월 뉴질랜드 이슬람 사원 2곳에서 50여명을 총격 살해한 테러리스트가 범행 장면을 페이스북으로 생중계한 것을 계기로 1인칭 총격 영상을 걸러내려 시도했지만 이런 영상을 잘 탐지하지 못한 것으로 나타났습니다.<br /><br />페인트볼을 쏘는 서바이벌 게임이나 세차 장면을 1인칭 총격과 혼동하기도 했습니다.<br /><br />보고서에는 AI가 닭싸움과 교통사고 영상조차 구분하지 못할 정도로 허술하단 내용도 담겼습니다. 엔지니어들의 몇 주에 걸친 노력에도 AI는 투계장에서 싸우는 닭과 평범한 닭을 구분하지 못했고 일부 영상을 자동차 충돌 영상으로 분류하는 상황도 나왔습니다.<br /><br />뉴욕타임스는 이런 상황에서도 페이스북이 인스타그램의 10대 청소년 사용자를 유지·확대하는 데 사활을 걸고 있으며 이를 위해 최근 3년 새 마케팅 비용을 5배 늘렸다고 전했습니다.<br /><br />(취재:이경희)<br /><br />(끝)<br /><br />